Ottima decodifica dalla corteccia delle parole pensate

 

 

GIOVANNI ROSSI

 

 

NOTE E NOTIZIE - Anno XVII – 11 aprile 2020.

Testi pubblicati sul sito www.brainmindlife.org della Società Nazionale di Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a notizie o commenti relativi a fatti ed eventi rilevanti per la Società, la sezione “note e notizie” presenta settimanalmente lavori neuroscientifici selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori riviste e il cui argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.

 

 

[Tipologia del testo: RECENSIONE]

 

Tradizionale argomento di un filone fantascientifico, la lettura del pensiero o, più propriamente, del flusso di parole mentali alla base dei processi di cognizione noetica e comunicazione verbale, negli anni recenti ha acquistato uno spazio mediatico notevole, anche a seguito degli esperimenti di comunicazione umana diretta da cervello a cervello, documentata e presentata anche da noi su questo sito attraverso le recensioni dei lavori originali[1]. Fino a una decina di anni fa, molti neuropsicologi e neuroscienziati cognitivi dovevano sopportare nelle interviste a scopo divulgativo il tormentone delle domande sulla possibilità di leggere il pensiero con l’elettroencefalogramma; la risposta era in genere affidata ad una metafora diffusa dai neurologi americani negli anni Ottanta e poi ripresa dai divulgatori: l’EEG è come un elicottero che sorvola i tetti di una città rilevando l’intensità del rumore nelle varie zone e non può certo sentire i discorsi che si fanno nelle case.

Col passare del tempo, non era più in questione il rilevo di un tracciato di attività elettrica cerebrale dalla superficie del cranio, come quello adoperato con grande utilità per fini diagnostici, ma, sempre più spesso, si trattava di studi elettrocorticografici (ECG) selettivi, realizzati registrando con elettrodi posti direttamente su specifiche aree di elaborazione verbale della corteccia cerebrale.

Ancora dieci anni fa, trasmissioni televisive molto seguite negli USA e puntate di programmi divulgativi diffuse in tutto il modo attraverso internet, affascinavano l’audience suggerendo che la scienza era giunta a un passo dal poter leggere nel cervello le parole che sarebbero state pronunciate da una persona, o che erano state solo pensate. In realtà, era in gioco una questione non da poco: decifrare il codice elettrico del linguaggio verbale umano.

All’inizio del terzo millennio, alcuni studi avevano dimostrato che i segnali cerebrali possono dare informazioni dettagliate circa azioni da compiere o solo immaginate: alcuni tipi di movimenti degli arti e perfino atti fonoarticolatori legati alla pronuncia di una parola potevano essere riconosciuti da un pattern di attività neuronica, ma fino al 2011 la ricerca non aveva fornito concrete evidenze sperimentali della possibilità di interpretare il linguaggio generato internamente nella dimensione mentale della funzione cerebrale di una persona. La codifica elettrica della parola riportava al più generale e annoso problema dell’esistenza di un codice neurale universale alla base delle funzioni esecutive del cervello. Gli studi sugli arti robotici interfacciati col cervello avevano dimostrato l’universalità di alcuni schemi di segnali motori, comuni all’uomo e alla scimmia, ma le informazioni esecutive più complesse sfuggivano alle interpretazioni dei ricercatori.

Nel 2011 Xiaomei Pei, Dennis L. Barbour, Eric C. Leuthardt e Gerwin Schalk hanno dimostrato per primi che è possibile usare i segnali elettrocorticografici per distinguere vocali e consonanti incluse nelle parole pronunciate e immaginate, e hanno definito le aree della corteccia che contengono la maggior parte dell’informazione necessaria a caratterizzare vocali e consonanti[2].

Quasi una decade dopo questa prima decodifica rimangono due grandi problemi per giungere alla lettura dalla corteccia cerebrale di frasi pensate: la precisione nell’identificazione e la velocità, che sono ancora lontane da quelle necessarie per seguire un flusso verbale.

Joseph G. Makin, David A. Moses e Edward F. Chang hanno mostrato come decodificare l’elettrocorticogramma con alta precisione alla frequenza dell’esecuzione ordinaria del linguaggio naturale.

(Makin J. G., et al., Machine translation of cortical activity to text with an encoder-decoder framework. Nature Neuroscience 23, 575-582, 2020).

La provenienza degli autori è la seguente: Center for Integrative Neuroscience, University of California at San Francisco (UCSF), San Francisco, California (USA); Department of Neurological Surgery, University of California at San Francisco (UCSF), San Francisco, California (USA).

Prendendo le mosse dai recenti progressi nella traduzione automatica, Makin e colleghi hanno sottoposto ad addestramento una rete neurale ricorrente per la codifica dell’attività neurale della lunghezza di ciascuna sequenza di frase in una rappresentazione astratta, e poi hanno esercitato la rete neurale artificiale a decodificare questa rappresentazione, parola per parola, in una frase in lingua inglese.

Per ciascun partecipante alla sperimentazione, i dati consistevano in varie ripetizioni vocali di un set di 30-50 frasi, insieme con i segnali contemporaneamente provenienti da circa 250 elettrodi distribuiti sulle aree della corteccia cerebrale prossime alla scissura di Silvio. I risultati sono stati molto incoraggianti: la frequenza media di errore in tutto un set di ripetizioni rimaneva molto bassa, entro il 3%. Infine, i tre ricercatori hanno dimostrato come la decodifica basata su un insieme di dati limitato possa essere migliorata con il transfer learning, addestrando alcuni strati della rete neurale artificiale con molti dati provenienti dai volontari che hanno preso parte allo studio.

 

L’autore della nota ringrazia la dottoressa Isabella Floriani per la correzione della bozza e invita alla lettura delle recensioni di studi di argomento connesso che appaiono nella sezione “NOTE E NOTIZIE” del sito (utilizzare il motore interno nella pagina “CERCA”).

 

Giovanni Rossi

BM&L-11 aprile 2020

www.brainmindlife.org

 

 

 

________________________________________________________________________________

 

La Società Nazionale di Neuroscienze BM&L-Italia, affiliata alla International Society of Neuroscience, è registrata presso l’Agenzia delle Entrate di Firenze, Ufficio Firenze 1, in data 16 gennaio 2003 con codice fiscale 94098840484, come organizzazione scientifica e culturale non-profit.

 

 

 

 

 

 



[1] Fra questi vi è anche lo studio che ha collegato in serie i cervelli di due persone ottenendo che i segnali recettivi elaborati dal primo cervello inducessero una risposta manuale del secondo soggetto.

[2] Pei X., et al. Decoding vowels and consonants in spoken and imagined words using elettrocorticographic signals in humans. Journal of Neural Engineering 8 (4): 046028; doi: 10.1088/1741-2560/8/4/046028, 2011.